「大語言模型與心理諮商」應該算是我過去一年主要在忙的事情,雖然還沒有個正式的結果,但也可以先看看學術界的觀點。
兩篇參考文獻都是 2024 年刊登的,Omar 的那篇是回顧型文章,分析整理了16 篇 paper,所以應該不會太偏頗。
這件事清想當然爾的結論是「機會與風險並存」。機會嘛,我跟夥辦們正在努力的好好把握,而相關的風險也是要事先有所準備。以下摘錄幾句文章裡的金句:
- Obradovich et al.: 大語言模型在「獲取資訊」、「凝鍊內容」上表現傑出,而且正在攻克需要繁複推理的問題。
- Obradovich et al.: 一個說話生動流暢的夥伴,不但記得你生活中的每個細節,還隨時用溫暖的語氣給你支持,這可能會引發一種回饋循環:我們可能會更沉迷在人機互動,而代替了人與人的社交。
- Omar et al.: 這些早期的研究揭示了大語言模型的多種應用,從診斷輔助到教育協助都有。鑑於認供智慧領域進步的速度,未來的研究會聚焦在探索「心理健康照護」當中的傳統角色,將會如何被新科技重新定義。
- Omar et al.: 人們對大語言模型在臨床場景中的局限性和安全性的擔憂顯而易見……這表明,儘管 ChatGPT 很有前景,但將其整合到臨床精神病學中必須謹慎對待。
個人最擔心的是第二點,那是走向種族滅絕的道路;第四點則是老話一句:小心駛得萬年船。
Referece:
- Obradovich et al. (2024): "Opportunities and risks of large language models in psychiatry" (Nature - Digital Psychiatry and Neuroscience)
- Omar et al. (2024): "Applications of large language models in psychiatry: a systematic review" (Frontiers in Psychiatry)
沒有留言:
張貼留言